1 Escalares, Vectores, y Matrices

1.1 Definiendo un vector con c(), :, seq()yrep()

Es un conjunto de elementos del mismo tipo. Ej. Un Vector numerico.

##  num [1:4] 2 3 4 5
##  int [1:4] 2 3 4 5
##  num [1:4] 2 3 4 5
##  num [1:4] 2 3 4 5
##  num [1:5] 37 37 37 37 37

1.2 Definiendo una matriz con matrix(), rbind()y cbind()

Una matriz es una colección de vectores que tienen dimensiones (filas y columnas).

##      [,1] [,2] [,3]
## [1,]    1    2    3
## [2,]    4    5    6
## [1] 2 3
##      [,1] [,2] [,3]
## [1,]    1    3    5
## [2,]    2    4    6
##      [,1] [,2] [,3]
## [1,]    1    2    3
## [2,]    4    5    6
##      [,1] [,2] [,3]
## [1,]    1    2    3
## [2,]    4    5    6

2 Operaciones con Vectores

2.2 Multiplicación de un vector con un escalar

## [1]  2  4  6  8 10

2.4 Resta de vectores

## [1]  2  4  6  8 10
## [1]  2  4  6  8 10

2.5 Multiplicación y suma de vectores

## [1]  -4  -8 -12 -16 -20

2.6 Gráfica de la suma de vectores


3 Operaciones con Matrices: Suma, Resta y Multiplicación

3.1 Multiplicación de una matriz con un escalar

##      [,1] [,2]
## [1,]   -2    4
## [2,]   14    0

3.3 Multiplicación de matrices: Matricial y Elemento a Elemento

**Multiplicación elemento a elemento - Operador(*)**

##      [,1] [,2]
## [1,]    0   -2
## [2,]  -10   36

**Multiplicación Matricial - Operador %*%**

##      [,1] [,2]
## [1,]   -5   12
## [2,]  -15   32
##      [,1] [,2]
## [1,]   -4   -6
## [2,]   24   31

4 Operaciones con matrices: Matrices transpuestas, inversas e identidad

4.1 Matriz Transpuesta - funcion t()

##      [,1] [,2] [,3]
## [1,]    1    3    5
## [2,]    2    4    6
##      [,1]
## [1,]    1
## [2,]    2
## [3,]    3
## [4,]    4
##      [,1] [,2] [,3] [,4]
## [1,]    1    2    3    4

4.3 Matriz identidad - funcion diag()

##      [,1] [,2]
## [1,]    1    0
## [2,]    0    1
##      [,1] [,2]
## [1,]    1    0
## [2,]    0    1
##      [,1] [,2] [,3]
## [1,]    1    0    0
## [2,]    0    1    0
## [3,]    0    0    1
##      [,1] [,2] [,3] [,4] [,5]
## [1,]    1    0    0    0    0
## [2,]    0    1    0    0    0
## [3,]    0    0    1    0    0
## [4,]    0    0    0    1    0
## [5,]    0    0    0    0    1
##      [,1] [,2]
## [1,]    1    2
## [2,]    3    4

5 Introducción a Regresión Lineal

5.1 Ejemplo Determinístico

Creamos un conjunto de datos creados ficticio de ventas de Hot Dog

Graficamos las variables con la libreria rgl

## Warning: package 'rgl' was built under R version 3.6.3

You must enable Javascript to view this page properly.

Otra alternativa es graficar de forma estática

Utilice la función lm() para estimar un modelo de regresión lineal

## Warning in summary.lm(hot.dog.model): essentially perfect fit: summary may be
## unreliable
## 
## Call:
## lm(formula = Total.Cost ~ Hot.Dogs + Fries, data = game.cost)
## 
## Residuals:
##        Min         1Q     Median         3Q        Max 
## -6.965e-14 -1.799e-15 -5.900e-16  6.420e-16  2.230e-13 
## 
## Coefficients:
##              Estimate Std. Error   t value Pr(>|t|)    
## (Intercept) 2.000e+01  1.485e-15 1.347e+16   <2e-16 ***
## Hot.Dogs    3.000e+00  9.652e-17 3.108e+16   <2e-16 ***
## Fries       2.000e+00  9.652e-17 2.072e+16   <2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 1.227e-14 on 438 degrees of freedom
## Multiple R-squared:      1,  Adjusted R-squared:      1 
## F-statistic: 6.977e+32 on 2 and 438 DF,  p-value: < 2.2e-16

5.2 Ejemplo Estocástico

Utilizaremos el data frame de mtcars

Graficamos las variables con la libreria rgl

You must enable Javascript to view this page properly.

Otra alternativa es graficar de forma estática

Utilice lm() para ajustar un modelo de regresión lineal

## 
## Call:
## lm(formula = mpg ~ wt + qsec, data = mtcars)
## 
## Coefficients:
## (Intercept)           wt         qsec  
##     19.7462      -5.0480       0.9292

Graficar datos del modelo ajustado vs. reales, queremos una linea.

You must enable Javascript to view this page properly.

5.3 Error del Modelo

Calculo de medidas de error para el modelo

## [1] 1.776357e-15

## [1] 6.108238
## [1] 2.471485

6 Representación Matricial de la Regresión Lineal

6.3 Ejemplo Estocástico

Se va usar el data frame mtcars

Graficar mpg vs wt y mpg vs qsec

Graficar las 3 variables juntas

Define las datos en matrices (modelo deseado: mpg ~ wt + qsec)

##                   rep(1, length(mtcars$mpg))    wt  qsec
## Mazda RX4                                  1 2.620 16.46
## Mazda RX4 Wag                              1 2.875 17.02
## Datsun 710                                 1 2.320 18.61
## Hornet 4 Drive                             1 3.215 19.44
## Hornet Sportabout                          1 3.440 17.02
## Valiant                                    1 3.460 20.22

Calcule el vector beta (Coeficientes) (debería ser 19,75, -5.05 y 0.93)

##                                 [,1]
## rep(1, length(mtcars$mpg)) 19.746223
## wt                         -5.047982
## qsec                        0.929198

Escribe la ecuación de regresión lineal

Calcular predicciones a partir de la ecuación

Graficar la variable respuesta y los valores predichos, esperamos una línea recta


7 Funciones y rectas tangentes

7.1 Definición de una función

Una función es una regla matemática que opera sobre una entrada para producir una salida.

7.3 Estimando la pendiente de una recta tangente

Función para estimar la pendiente de la recta tangente usando rectas secantes

Función para estimar la pendiente de la recta tangente con una sola recta

## Warning in sqrt(x): NaNs produced

## Warning in sqrt(x): NaNs produced

8 Derivada de una Función

8.3 Encontrar y graficar derivadas parciales

You must enable Javascript to view this page properly.

9 Optimizacion mediante Derivadas - Funciones de una variable

10 Optimizacion mediante Derivadas - Funciones de dos variables

10.1 Encontrar todas las derivadas iguales a cero

## function (x, y) 
## 2 * x - 2

## function (x, y) 
## 2 * y - 6
## $root
## [1] 1
## 
## $f.root
## [1] 3.552714e-15
## 
## $iter
## [1] 2
## 
## $init.it
## [1] NA
## 
## $estim.prec
## [1] 6.103516e-05
## $root
## [1] 3
## 
## $f.root
## [1] 0
## 
## $iter
## [1] 1
## 
## $init.it
## [1] NA
## 
## $estim.prec
## [1] 13
##      [,1] [,2]
## [1,]    2    0
## [2,]    0    2
## [1] 2 6
## [1] 1 3

¿Qué pasa si f' es una función de dos variables?

## function (x, y) 
## 2 * x + y
## function (x, y) 
## 2 * y + x

You must enable Javascript to view this page properly.

## $root
## [1] 0 0
## 
## $f.root
## f1 f2 
##  0  0 
## 
## $iter
## [1] 1
## 
## $estim.precis
## [1] 0

10.2 Prueba de la segunda derivada para dos Variables

## function (x, y) 
## 2
## function (x, y) 
## 2
## function (x, y) 
## 0
## [1] 4

11 Vectores Ortogonales e Independencia Lineal

11.2 Ejemplo con regresión lineal

## Warning in summary.lm(mod1): essentially perfect fit: summary may be unreliable
## 
## Call:
## lm(formula = y ~ ., data = model.data)
## 
## Residuals:
##        Min         1Q     Median         3Q        Max 
## -2.195e-14 -1.419e-15 -4.940e-16  4.550e-16  4.771e-14 
## 
## Coefficients: (1 not defined because of singularities)
##               Estimate Std. Error    t value Pr(>|t|)    
## (Intercept) -1.066e-15  6.436e-16 -1.656e+00    0.101    
## x1           8.000e+00  7.020e-16  1.140e+16   <2e-16 ***
## x2           1.200e+01  6.627e-16  1.811e+16   <2e-16 ***
## x3                  NA         NA         NA       NA    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 6.368e-15 on 97 degrees of freedom
## Multiple R-squared:      1,  Adjusted R-squared:      1 
## F-statistic: 2.192e+32 on 2 and 97 DF,  p-value: < 2.2e-16
## Warning in summary.lm(mod2): essentially perfect fit: summary may be unreliable
## 
## Call:
## lm(formula = y ~ x3, data = model.data)
## 
## Residuals:
##        Min         1Q     Median         3Q        Max 
## -2.920e-15 -4.697e-16 -2.561e-16  6.390e-17  2.519e-14 
## 
## Coefficients:
##              Estimate Std. Error   t value Pr(>|t|)    
## (Intercept) 8.882e-17  2.645e-16 3.360e-01    0.738    
## x3          4.000e+00  7.928e-17 5.046e+16   <2e-16 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 2.643e-15 on 98 degrees of freedom
## Multiple R-squared:      1,  Adjusted R-squared:      1 
## F-statistic: 2.546e+33 on 1 and 98 DF,  p-value: < 2.2e-16
##           [,1]
## [1,] -5.300673
##          [,1]
## [1,] 150.7127
##          [,1]
## [1,] 270.5823

12 Eigenvectors y Eigenvalues

12.1 Encontrar la matriz de covarianza y la descomposición eigen

##      a1 a2 a3
## [1,]  1  2 -1
## [2,]  0  2  3
## [3,]  4 -2  1
##       a1    a2 a3
## a1  4.33 -4.67 -1
## a2 -4.67  5.33  0
## a3 -1.00  0.00  4
## eigen() decomposition
## $values
## [1] 9.607219 4.059447 0.000000
## 
## $vectors
##            [,1]       [,2]       [,3]
## [1,]  0.6705437 -0.0579880 -0.7396003
## [2,] -0.7321683 -0.2124292 -0.6471502
## [3,] -0.1195858  0.9754544 -0.1849001

12.2 Comprensión de un Eigenvalue igual a cero

## eigen() decomposition
## $values
## [1] 3.922304e+00 1.069992e+00 4.440892e-16
## 
## $vectors
##             [,1]       [,2]          [,3]
## [1,]  0.44675912 0.02015651  8.944272e-01
## [2,] -0.04507134 0.99898377 -1.110223e-16
## [3,]  0.89351825 0.04031303 -4.472136e-01
##               [,1]
## [1,] -3.885781e-16
##               [,1]
## [1,] -1.110223e-16
##              [,1]
## [1,] 2.116363e-16

13 Descenso del Gradiente

13.1 Ejecución del algoritmo de descenso de gradiente

You must enable Javascript to view this page properly.

13.2 Visualización e interpretación de resultados

You must enable Javascript to view this page properly.


14 Descenso de gradiente en regresión lineal

14.2 Ejecute el Descenso de gradiente

##          [,1]
## [1,] 4.944626
## [2,] 2.075818
## 
## Call:
## lm(formula = y ~ x)
## 
## Coefficients:
## (Intercept)            x  
##       4.945        2.076

## [1] 455.455

## [1] 444

15 Referencia Bibliográfica